查看原文
其他

雷军说仔细看了3000万人和小爱音箱的对话 是否侵犯了隐私?

李玲 隐私护卫队 2018-11-22

小爱同学大概是国内最忙碌的智能语音助手了。8月15日,小米官方宣布截至7月底,小爱同学月活跃设备突破3000万,累计唤醒50亿次,已经陪用户聊天10亿次了。


本是一次展示小米强劲AI实力的宣传,因为雷军的一条微博网友炸开了锅。当天下午,雷文发博称,“我仔细看了看3000万人和小爱同学聊的内容……”,并附上了一张图片显示,用户和这款智能音箱聊得最多和撩得最多的10个对话,其中包括“雷军有多少钱”、“怎么样才能追到吴亦凡”等逗趣的内容。

雷军8月15日发布的微博。

这款智能音箱对声音应该是敏感的,当它被唤醒后,即可根据人们说的指令执行各种操作,如查询天气、开关电视、控制台灯等。雷军或许想不到,同样敏感的还有公众对于隐私的焦虑。


在他的微博下,有用户提出疑问“这算收集用户隐私吗?”、“证明我们和小爱说的话都给窃听了,我们的隐私怎么办?”更有人转发调侃:“‘小爱同学。’‘我在。’‘我跟你说的话,你会保密吧?’‘肯定会的。’雷军:我仔细看了看3000万人和小爱同学聊的内容。”


不过也有网友认为,这是大数据跟个人隐私没有关系,因为无法知道具体用户是谁,类似于微博热搜和双十一每个省份都喜欢买什么。还有用户指出,使用小爱同学之前有个是否上传的选项。

部分网友留言。

隐私护卫队注意到,雷军晒出的图片是这次小爱同学喜提3000万用户的9张宣传海报之一。这组文案还提到每天小爱同学帮大家做的事,播放音乐509万次,看视频242万次。用户在夜里询问小爱同学的话,“你几岁啦”、“你睡着了吗”等。数据基于2017年3月小爱同学发布以来,至2018年7月31日的累积数据。

小爱同学的宣传文案。

雷军说看了用户对话是否侵犯隐私?隐私护卫队认为,关键在于这些用作数据分析的对话内容是否经过去标识化处理。所谓去标识化是指,通过对个人信息的技术处理,使其在不借助额外信息的情况下,无法识别个人信息主体的过程。


也就是说,有一种可能是雷军能看到的,是经过去标识处理的用户信息,即只能看到对话内容,不过不知道具体是谁说的。但小爱音箱收集的信息是否经过去标识化处理尚不能确定。


《网络安全法》第四十二条规定,网络运营者不得泄露、篡改、毁损其收集的个人信息;未经被收集者同意,不得向他人提供个人信息。但是,经过处理无法识别特定个人且不能复原的除外。后半句实际为大数据应用留下了充分的考虑,去标识化且不能复原的信息不属于个人隐私的范畴,可用作大数据应用。


从法律合规的角度看,如果雷军看的对话无法识别到个人且无法复原,仅用作整体的大数据分析,或许并不存在侵犯隐私之嫌。

不过有安全专家向隐私护卫队表达了技术方面的担忧。目前国内的去标识化实现非常简单,最常用的是随机化或者简单的掩码、截断等,处理的对象是仅是可用于直接识别用户信息的标识符,如手机号,身份证号码等,但实际上这是不够的。因为凭借声纹信息仍可识别出哪个人的声音并做关联分析。就算保护声纹只保留文字,简单的数据分析依然可以获取到大量隐私信息。 

而从舆情方面看,不可回避的是,雷军“仔细看”的字眼确实挑动了部分用户的敏感神经。或许顾及此,他当晚删除了这条微博。 


大数据时代,不难理解公众对于隐私安全的焦虑,特别是面对未知的事物,人们天然存有怀疑和不安的情绪。一方面,用户确实不知道雷军仔细看了什么,是不是有我和小爱同学的悄悄话,这些数据有无经过去标识化处理。另一方面,越来越多人开始意识到,看似不起眼的智能音箱也是家庭隐私收集器。


尽管厂商反复强调,我们不会监听用户,只是在设备会唤醒后才会收集声音信息,但哪些信息会被上传云端、存储多久以及用作何处,人们往往一无所知。今年7月底,南都个人信息保护研究中心发布《智能家居隐私政策透明度测评报告》。50款常用的智能家居类App中,只有一个平台的隐私政策透明度达到高的级别,72%处于透明度低或较低区间。


隐私护卫队认为,在鼓励人们拥抱科技的同时,厂商应更多考虑公众对于隐私的期待,充分保重用户的知情权和选择权。当用户对于产品本身、技术背后的逻辑及可能存在的隐私风险有了一定认知,并能自主决定是否愿意用隐私交换便利时,或许很多人不会那么容易谈隐私色变。


报料请点击 

推荐阅读:

又双叒叕有医院泄露患者信息,演员林更新中招!院方称正在调查

网络安全年会:去年以来4391家境内单位疑有基因数据出境行为

揭秘个人信息黑产内鬼:有人被美人计拉下水,有人换来豪车房产

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存